Donald Trump se aparta de Anthropic por rechazo a uso militar
El presidente de los Estados Unidos, Donald Trump, decidió que todas las agencias federales detengan el uso de la tecnología de Anthropic. ¿La razón? La empresa se negó a flexibilizar sus políticas, que impiden que su inteligencia artificial sea utilizada con fines militares.
Esta decisión significa un quiebre en la relación entre la Casa Blanca y una de las principales firmas de IA del país. Se da en un contexto donde el Pentágono busca expandir el uso de estas tecnologías en operaciones de seguridad nacional cada vez más complejas.
Trump anunció la medida a través de sus redes sociales, afirmando que Anthropic prioriza sus intereses corporativos sobre la defensa del país. Según el mandatario, la postura de la empresa “pone en riesgo la seguridad nacional”, lo que va en contra de los objetivos estratégicos de su gobierno.
En este marco, el presidente ordenó que se detenga de inmediato el uso de la tecnología de Anthropic. Sin embargo, aclaró que la desvinculación será gradual, con un plazo de transición de hasta seis meses para las agencias que actualmente dependen de estos sistemas, incluidas algunas vinculadas a Defensa.
Un vínculo que venía deteriorándose
Anthropic había firmado en 2025 un contrato de 200 millones de dólares con el Departamento de Defensa para colaborar en el desarrollo de capacidades de inteligencia artificial orientadas a la seguridad nacional. Pero la relación se empezó a desplomar cuando el gobierno estadounidense presionó a la empresa para que eliminara sus políticas de uso. Estas políticas prohíben la participación de sus modelos en el diseño, planificación u operación de armamento, así como en actividades de vigilancia invasiva.
Las tensiones aumentaron aún más después de que surgieran informes periodísticos que afirmaron que el modelo Claude de Anthropic había sido utilizado indirectamente en una operación militar que resultó en la captura del expresidente venezolano Nicolás Maduro, mediante sistemas desarrollados por Palantir Technologies.
De acuerdo con algunas fuentes, ejecutivos de Anthropic pidieron explicaciones sobre este supuesto uso, ya que consideraron que se trataba de un escenario que implicaba fuego real y víctimas, lo cual violaría sus condiciones de servicio. En respuesta, el Pentágono endureció su postura.
Entre las medidas que se evaluaron estaban la cancelación del contrato vigente y la posibilidad de catalogar a la empresa como un riesgo para la cadena de suministro, lo que podría aislarla del ecosistema de defensa estadounidense. Desde el Departamento de Defensa defendieron esta estrategia, subrayando que el país necesita socios tecnológicos alineados con sus objetivos militares, especialmente en un mundo donde la competencia es cada vez más feroz.
La respuesta de Anthropic
El CEO de Anthropic, Dario Amodei, describió las presiones del gobierno como “contradictorias” y argumentó que se quería, al mismo tiempo, considerar a la empresa un riesgo y exigirle que permitiera usos más agresivos de su tecnología.
Amodei reafirmó que Anthropic no cambiará sus políticas de seguridad, ya que permitir el uso sin restricciones de modelos de IA en contextos bélicos o de vigilancia masiva iría en contra de sus principios.
Este conflicto hizo sonar alarmas en el resto de la industria tecnológica. Empleados de empresas como Google y OpenAI firmaron una carta abierta pidiendo que sus compañías adopten una postura similar, en respuesta a presiones del gobierno estadounidense.
Ambas empresas tienen contratos millonarios con el Pentágono, y según los firmantes, las autoridades rastrean formas de negociar por separado con cada empresa para evitar que se forme una postura común que limite el uso militar de la inteligencia artificial.
Desde OpenAI, su CEO Sam Altman también ha manifestado que consideran inaceptable el uso de IA para armas autónomas o vigilancia masiva, argumentando que las decisiones de alto riesgo deben estar siempre bajo control humano.